Text copied to clipboard!

Tytuł

Text copied to clipboard!

Programista Big Data

Opis

Text copied to clipboard!
Poszukujemy Programisty Big Data, który dołączy do naszego zespołu technologicznego i będzie odpowiedzialny za projektowanie, rozwój oraz optymalizację rozwiązań opartych na dużych zbiorach danych. Idealny kandydat powinien posiadać doświadczenie w pracy z narzędziami i technologiami Big Data, takimi jak Hadoop, Spark, Kafka, oraz znać języki programowania takie jak Java, Scala lub Python. W tej roli będziesz odpowiedzialny za tworzenie skalowalnych i wydajnych rozwiązań do przetwarzania danych, które wspierają decyzje biznesowe i analizy predykcyjne. Będziesz współpracować z zespołami analitycznymi, inżynierami danych oraz architektami systemów, aby zapewnić spójność i jakość danych w całej organizacji. Twoje zadania będą obejmować projektowanie i implementację potoków danych (data pipelines), integrację danych z różnych źródeł, optymalizację wydajności systemów przetwarzania danych oraz zapewnienie bezpieczeństwa i zgodności danych z obowiązującymi regulacjami. Oferujemy pracę w dynamicznym środowisku, w którym będziesz mieć możliwość rozwoju zawodowego, udziału w innowacyjnych projektach oraz korzystania z najnowszych technologii. Jeśli jesteś osobą analityczną, zorientowaną na rozwiązania i chcesz mieć realny wpływ na rozwój produktów opartych na danych, ta rola jest dla Ciebie.

Obowiązki

Text copied to clipboard!
  • Projektowanie i rozwój rozwiązań Big Data
  • Tworzenie i utrzymywanie potoków danych (data pipelines)
  • Integracja danych z różnych źródeł
  • Optymalizacja wydajności systemów przetwarzania danych
  • Współpraca z zespołami analitycznymi i inżynierami danych
  • Zapewnienie jakości i spójności danych
  • Zarządzanie dużymi zbiorami danych w środowiskach rozproszonych
  • Monitorowanie i rozwiązywanie problemów związanych z danymi
  • Udział w projektowaniu architektury danych
  • Zgodność z regulacjami dotyczącymi ochrony danych

Wymagania

Text copied to clipboard!
  • Doświadczenie w pracy z technologiami Big Data (Hadoop, Spark, Kafka)
  • Znajomość języków programowania: Java, Scala lub Python
  • Znajomość systemów baz danych NoSQL (np. Cassandra, HBase)
  • Umiejętność pracy z narzędziami ETL
  • Doświadczenie w pracy z systemami rozproszonymi
  • Znajomość zagadnień związanych z przetwarzaniem strumieniowym
  • Zdolność analitycznego myślenia i rozwiązywania problemów
  • Umiejętność pracy zespołowej i komunikacji
  • Znajomość języka angielskiego na poziomie technicznym
  • Wykształcenie wyższe w dziedzinie informatyki lub pokrewnej

Potencjalne pytania na rozmowie

Text copied to clipboard!
  • Jakie masz doświadczenie z technologiami Big Data?
  • Z jakimi narzędziami ETL pracowałeś wcześniej?
  • Czy masz doświadczenie w pracy z systemami rozproszonymi?
  • Jakie języki programowania znasz i w jakim stopniu?
  • Czy pracowałeś z danymi strumieniowymi? Jakie technologie stosowałeś?
  • Jakie były Twoje największe wyzwania w pracy z dużymi zbiorami danych?
  • Czy masz doświadczenie w optymalizacji wydajności systemów danych?
  • Jakie masz doświadczenie w pracy zespołowej w projektach IT?
  • Czy znasz zasady ochrony danych osobowych (np. RODO)?
  • Jakie projekty Big Data realizowałeś w przeszłości?